在这项工作中,我们研究了生成图像模型的性能和评估如何受到其培训数据集的种族组成的影响。通过检查和控制各种培训数据集中的种族分布,我们能够观察不同培训分布对生成的图像质量和生成图像的种族分布的影响。我们的结果表明,生成的图像的种族组成成功地保留了培训数据。但是,我们观察到截断是一种用于在推断过程中生成更高质量图像的技术,加剧了数据中的种族失衡。最后,在检查图像质量与种族之间的关系时,我们发现给定种族的最高可感知的视觉质量图像来自该种族代表性很好的分布,并且注释者始终偏爱白人的生成图像,而不是黑人。
translated by 谷歌翻译
电视节目描述了各种各样的人类行为,并已广泛研究其成为许多应用程序的丰富数据来源的潜力。但是,大多数现有工作都集中在2D识别任务上。在本文中,我们观察到电视节目中有一定的持久性,即对环境和人类的重复,这使得该内容的3D重建成为可能。在这种见解的基础上,我们提出了一种自动方法,该方法在整个电视节目的整个季节中运作,并在3D中汇总信息;我们构建了环境,计算摄像头信息,静态3D场景结构和身体尺度信息的3D模型。然后,我们演示了这些信息如何充当丰富的3D背景,可以指导和改善3D人类姿势和位置在这些环境中的恢复。此外,我们表明,关于人类及其环境的推理在3D中可以实现广泛的下游应用:重新识别,凝视估计,摄影和图像编辑。我们将我们的方法应用于七个标志性电视节目的环境中,并对所提出的系统进行广泛的评估。
translated by 谷歌翻译
我们提出了一种学习方法,可以从单个视图开始生成自然场景的无界飞行视频,在该视图中,从单个照片集中学习了这种功能,而无需每个场景的相机姿势甚至多个视图。为了实现这一目标,我们提出了一种新颖的自我监督视图生成训练范式,在这里我们采样和渲染虚拟摄像头轨迹,包括循环轨迹,使我们的模型可以从单个视图集合中学习稳定的视图生成。在测试时,尽管在训练过程中从未见过视频,但我们的方法可以拍摄单个图像,并产生长的相机轨迹,包括数百个新视图,具有现实和多样化的内容。我们将我们的方法与最新的监督视图生成方法进行了比较,该方法需要摆姿势的多视频视频,并展示了卓越的性能和综合质量。
translated by 谷歌翻译
从单个图像中感知3D人体的能力具有多种应用,从娱乐和机器人技术到神经科学和医疗保健。人类网格恢复中的一个基本挑战是收集训练所需的地面真相3D网格目标,这需要负担重大的运动捕获系统,并且通常仅限于室内实验室。结果,尽管在这些限制性设置中收集的基准数据集上取得了进展,但由于分配变化,模型无法推广到现实世界中的``野外''方案。我们提出了域自适应3D姿势增强(DAPA),这是一种数据增强方法,可增强模型在野外场景中的概括能力。 DAPA通过从综合网格中获得直接监督,并通过使用目标数据集的地面真相2D关键点来结合基于合成数据集的方法的强度。我们定量地表明,使用DAPA的填充有效地改善了基准3DPW和Agora的结果。我们进一步证明了DAPA在一个充满挑战的数据集中,该数据集从现实世界中亲子互动的视频中策划了。
translated by 谷歌翻译
基于坐标的体积表示有可能从图像中生成光真实的虚拟化身。但是,即使是可能未观察到的新姿势,虚拟化身也需要控制。传统技术(例如LBS)提供了这样的功能;但是,通常需要手工设计的车身模板,3D扫描数据和有限的外观模型。另一方面,神经表示在表示视觉细节方面具有强大的作用,但在变形的动态铰接式参与者方面受到了探索。在本文中,我们提出了TAVA,这是一种基于神经表示形式创建无象光动画体积参与者的方法。我们仅依靠多视图数据和跟踪的骨骼来创建演员的体积模型,该模型可以在给定的新颖姿势的测试时间中进行动画。由于塔瓦不需要身体模板,因此它适用于人类以及其他动物(例如动物)。此外,Tava的设计使其可以恢复准确的密集对应关系,从而使其适合于内容创建和编辑任务。通过广泛的实验,我们证明了所提出的方法可以很好地推广到新颖的姿势以及看不见的观点和展示基本的编辑功能。
translated by 谷歌翻译
我们介绍了Plenoxels(plenoptic voxels),是一种光电型观测合成系统。Plenoxels表示作为具有球形谐波的稀疏3D网格的场景。该表示可以通过梯度方法和正则化从校准图像进行优化,而没有任何神经元件。在标准,基准任务中,Plenoxels优化了比神经辐射场更快的两个数量级,无需视觉质量损失。
translated by 谷歌翻译
在本文中,我们通过预测其未来的3D表示,提出了一种追踪单眼视频中的人员的方法。为实现这一目标,我们首先以强大的方式从一个框架举起人们3D。这一提升包括关于人的3D姿势的信息,他或她在3D空间中的位置,以及3D外观。当我们跟踪一个人时,我们在托管表示中收集3D观察。鉴于我们观察的3D性质,我们为以前的每个属性建立了时间模型。我们使用这些模型来预测Tracklet的未来状态,包括3D位置,3D外观和3D姿势。对于未来的帧,我们以概率的方式计算轨迹的预测状态与单帧观测之间的相似性。使用简单的匈牙利匹配解决了关联,并且匹配用于更新相应的Tracklet。我们评估我们在各种基准和报告最先进的结果上的方法。
translated by 谷歌翻译
我们提出了一种在视频中跟踪多人的新方法。与雇用2D表示的过去的方法不同,我们专注于使用位于三维空间的人的3D表示。为此,我们开发一种方法,人体网状和外观恢复(HMAR),除了提取人的3D几何形状作为SMPL网格之外,还提取作为网格三角形上的纹理图的外观。这用作对视点和构成更改具有稳健性的外观的3D表示。给定视频剪辑,我们首先使用HMAR提取3D外观,姿势和位置信息来检测对应的边界框。然后将这些嵌入向量发送到变压器,该变压器在序列的持续时间内执行表示的时空聚合。由此产生的表示的相似性用于求解将每个人分配给ROCKET的关联。我们评估我们在Posetrack,MUPOT和AVA数据集中的方法。我们发现3D表示比2D表示更有效,以便在这些设置中跟踪,我们获得最先进的性能。代码和结果可用于:https://brjathu.github.io/t3dp。
translated by 谷歌翻译
We introduce a method to render Neural Radiance Fields (NeRFs) in real time using PlenOctrees, an octree-based 3D representation which supports view-dependent effects. Our method can render 800×800 images at more than 150 FPS, which is over 3000 times faster than conventional NeRFs. We do so without sacrificing quality while preserving the ability of NeRFs to perform free-viewpoint rendering of scenes with arbitrary geometry and view-dependent effects. Real-time performance is achieved by pre-tabulating the NeRF into a PlenOctree. In order to preserve viewdependent effects such as specularities, we factorize the appearance via closed-form spherical basis functions. Specifically, we show that it is possible to train NeRFs to predict a spherical harmonic representation of radiance, removing the viewing direction as an input to the neural network. Furthermore, we show that PlenOctrees can be directly optimized to further minimize the reconstruction loss, which leads to equal or better quality compared to competing methods. Moreover, this octree optimization step can be used to reduce the training time, as we no longer need to wait for the NeRF training to converge fully. Our real-time neural rendering approach may potentially enable new applications such as 6-DOF industrial and product visualizations, as well as next generation AR/VR systems. PlenOctrees are amenable to in-browser rendering as well; please visit the project page for the interactive online demo, as well as video and code: https://alexyu. net/plenoctrees.
translated by 谷歌翻译
在这项工作中,我们探索在野外重建手对象交互。这个问题的核心挑战是缺乏适当的3D标记数据。为了克服这个问题,我们提出了一种基于优化的程序,该过程不需要直接的3D监督。我们采用的一般策略是利用所有可用的相关数据(2D边界框,2D手键盘,2D实例掩码,3D对象模型,实验室Mocap)为3D重建提供约束。我们不是单独优化手和对象,我们共同优化它们,这使我们能够基于手动对象触点,碰撞和遮挡来施加额外的约束。我们的方法在史诗厨房和100天的手中数据集中产生令人信服的重建,跨越一系列对象类别。定量地,我们证明我们的方法对现有的实验室设置中的现有方法有利地进行了比较,其中地面真理3D注释提供。
translated by 谷歌翻译